Textbasierte Modelle wie ChatGPT markieren nur den Anfang der KI-Entwicklung. Die nächste Phase ist bereits im Gange: KI-Systeme, die Bilder und Videos verstehen, eigenständig handeln und sogar mit der physischen Welt interagieren. Dieser Vortrag gibt einen Einblick in genau diese neue Generation von KI – jenseits reiner Textverarbeitung.
Zu Beginn werden die Grundlagen von Sprachmodellen wie ChatGPT verständlich erläutert. Anschließend folgt der Blick nach vorn:
– **Bild- und Videomodelle**: Wie KI visuelle Informationen interpretiert und in Bereichen wie Gesundheitswesen, Landwirtschaft, Fertigung, Einzelhandel oder Umwelttechnik eingesetzt wird.
– **Autonome KI-Agenten**: Systeme, die eigenständig Aufgaben ausführen, auf externe Datenquellen zugreifen (z. B. über RAG), Entscheidungen treffen und Prozesse automatisieren.
– **Humanoide Roboter**: Die Vision (und Realität) von KI-gestützten Robotern, die Sprache, Sehen und Handeln kombinieren.
Dabei werden sowohl aktuelle Technologien wie DALL-E, Sora oder Segment-Anything vorgestellt als auch praktische Beispiele aus Industrie, Forschung und Alltag diskutiert – von automatisierter Müllsortierung bis zur KI-gestützten Klimaforschung.
Der Kurs richtet sich an alle, die verstehen möchten, wie sich KI gerade rasant weiterentwickelt – von der sprachbasierten Assistenz hin zu echten autonomen Systemen mit Sensorik, Vision, Reasoning Fähigkeiten Handlungskompetenz.